首页> 外文OA文献 >Multi-domain Neural Network Language Generation for Spoken Dialogue Systems
【2h】

Multi-domain Neural Network Language Generation for Spoken Dialogue Systems

机译:口语对话的多域神经网络语言生成   系统

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Moving from limited-domain natural language generation (NLG) to open domainis difficult because the number of semantic input combinations growsexponentially with the number of domains. Therefore, it is important toleverage existing resources and exploit similarities between domains tofacilitate domain adaptation. In this paper, we propose a procedure to trainmulti-domain, Recurrent Neural Network-based (RNN) language generators viamultiple adaptation steps. In this procedure, a model is first trained oncounterfeited data synthesised from an out-of-domain dataset, and then finetuned on a small set of in-domain utterances with a discriminative objectivefunction. Corpus-based evaluation results show that the proposed procedure canachieve competitive performance in terms of BLEU score and slot error ratewhile significantly reducing the data needed to train generators in new, unseendomains. In subjective testing, human judges confirm that the procedure greatlyimproves generator performance when only a small amount of data is available inthe domain.
机译:从有限域自然语言生成(NLG)到开放域是困难的,因为语义输入组合的数量随域的数量呈指数增长。因此,利用现有资源并利用域之间的相似性以促进域适应很重要。在本文中,我们提出了一种通过多个自适应步骤训练多域,基于递归神经网络(RNN)的语言生成器的过程。在此过程中,首先对从域外数据集合成的伪造数据进行训练模型,然后对具有判别目标函数的一小部分域内话语进行微调。基于语料库的评估结果表明,所提出的程序可以在BLEU得分和时隙错误率方面达到竞争性能,同时显着减少在新的,未见域中训练生成器所需的数据。在主观测试中,人类法官确认当该域中只有少量数据可用时,该程序可以大大提高生成器的性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号